Группировка Worok прячет новый вредонос в PNG-файле

Группировка Worok прячет новый вредонос в PNG-файле

Группировка Worok прячет новый вредонос в PNG-файле

Киберпреступная группировка Worok начала прятать вредоносную программу в PNG-изображениях (стеганография). Пробравшись на устройство жертвы, вредонос крадёт важную информацию, а способ его доставки не вызывает алертов защитных программ.

Впервые о Worok рассказали специалисты компании ESET в сентябре 2022 года. Теперь исследователи из Avast обратили внимание сообщества на новую кампанию группы.

В первую очередь киберпреступников интересуют госучреждения в странах Среднего Востока, Южной Африки и Юго-Восточной Азии. Эксперты пока не знают, как именно злоумышленники проникают в сети, но есть предположение, что Worok использует стороннюю загрузку DLL для запуска вредоноса CLRLoader в памяти.

Далее CLRLoader загружает пейлоад PNGLoader, задача которого — извлечь байты, встроенные в PNG-изображения и «сложить» из них два исполняемых файла. В отчёте Avast есть инфографика, демонстрирующая этапы атаки:

 

Специалисты также отметили, что Worok использует технику кодирования наименее важного бита (“least significant bit (LSB) encoding“). Это значит, что небольшие фрагменты вредоносного кода встраиваются в наименее важные биты пикселей изображения.

 

Первый пейлоад, извлекаемый PNGLoader, представляет собой PowerShell-скрипт, который, к сожалению, не смогли восстановить ни ESET, ни Avast. Вторая нагрузка — кастомный вредонос, похищающий файлы жертвы. Последний использует DropBox в качестве командного центра (C2).

Кстати, то самое PNG-изображение, скрывающее второй пейлоад, выглядит довольно безобидно:

 

По словам Avast, Worok использует кастомные инструменты, которые на данный момент недоступны другим киберпреступным группировкам.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

Минюст США создал важный прецедент

Американский Минюст возбудил два уголовных дела против авторов порнографических изображений с участием детей, сгенерированных с помощью технологии дипфейк.

Ведомство заявило, что расширит практику привлечения к ответственности изготовителей и распространителей такого рода продукции.

Начальник Отдела по борьбе с киберпреступностью и нарушениями интеллектуальной собственности Министерства юстиции США Джеймс Сильвер заявил корреспонденту агентства «Рейтер», что только двумя данными случаями дело не ограничится.

Он отметил, что его лично и многих его коллег крайне беспокоит нормализация практики использования генеративного искусственного интеллекта для создания порнографических изображений, в том числе с участием детей, и это способствует все большему ее распространению.

«Мы намерены этому противодействовать», — резюмировал Джеймс Сильвер.

Однако первый такой прецедент не развеял опасения юридического сообщества в том, что вынесенные обвинительные приговоры могут быть обжалованы. Суды также не вполне готовы к рассмотрению дел, где обвиняемые использовали искусственный интеллект.

Тем более в США было как минимум два случая, когда распространителям таких изображений удавалось или избежать ответственности, или понести наказание по существенно более легкой статье, не связанной с распространением детской порнографии. Они воспользовались тем, что изображения, которые у них нашли, не относились к кому-то конкретно.

Беспокойство правоохранителей и организаций, занимающихся защитой прав детей также вызывает то, что широкое распространение материалов, сгенерированных искусственным интеллектом, станет своего рода дымовой завесой, за которой будут скрываться факты насилия над реальными детьми и подростками.

Национальный центр по делам пропавших и эксплуатируемых детей фиксирует в среднем около 450 обращений, связанных со сгенерированными искусственным интеллектом изображений с участием детей. Общее же число обращений в эту организацию, как заявила ее юридический консультант Ийота Соурас, превышает 3 миллиона.

Однако Ребекка Портнофф, вице-президент правозащитной организации Thorn, заявила, что не стоит рассматривать данную проблему лишь как дело будущего, иначе она выйдет из-под контроля. И для ее решения нужно действовать по всем направлениям, как влияя на разработчиков систем генерации изображений, так и через правоохранительную систему.

Anti-Malware Яндекс ДзенПодписывайтесь на канал "Anti-Malware" в Telegram, чтобы первыми узнавать о новостях и наших эксклюзивных материалах по информационной безопасности.

RSS: Новости на портале Anti-Malware.ru